#AI 能力
黃仁勳最新訪談:要想成事,這4點遠比智力更重要!
AI 浪潮之下,工作方式、組織形態與個人價值正迎來根本性重構。在最近的一次深度訪談裡,一手推動全球 AI 革命的黃仁勳,說了一句顛覆所有人認知的話:智能正在成為一種廉價的商品。在 AI 時代,人類真正的核心競爭力,從來都不是智商,而是人性。這位全球任期最長的科技公司CEO,手下管著60位各領域頂尖的專家,每一個人在自己的專業賽道上,智商和能力都遠超他本人。但黃仁勳這位掌舵人,帶著輝達從一家瀕臨破產的顯示卡公司,長成了如今市值4萬多億美元的 AI 時代第一大廠。這篇文章,我們就從黃仁勳的親身經歷和底層思考裡,拆透 AI 時代最本質的生存法則:當智能變成一種廉價商品,到底什麼才是一個人、一家企業,真正不可替代的護城河。一、你拚命內卷的“智商”,正在被AI變成廉價商品以前我們覺得,能寫一手好程式碼的程式設計師、能精準分析財報的金融分析師、能快速出全案的品牌策劃,都是靠高智商吃飯的 “不可替代者”。但現在,AI能在幾分鐘內完成這些工作,成本不到人工的百分之一,精準率甚至更高。黃仁勳說,我們一直把“智能”這個詞過度浪漫化了,從本質上看,它就是感知—理解—推理—計畫的閉環,是一套功能性的動作。AI正在做的,就是把這套功能性的智力動作,徹底工業化、標準化、廉價化。你拚命內卷的知識儲備、計算能力、邏輯推理,只要是能被拆解成流程、被標準化的,AI都能比你做得更快、更好、更便宜。很多人焦慮AI會替代自己,其實換個角度想,是把自己繫結在了AI最擅長的標準化智力勞動上。你和AI比算力、比記憶力、比標準化的邏輯推理,就像當年手工紡織工人和蒸汽機卷產量一樣,從一開始就輸了。就像工業革命把手工勞動者從標準化的體力勞動裡解放出來,AI革命,正在把我們從標準化的智力勞動裡解放出來。既然標準化的智商已經成了廉價商品,那在AI時代,我們真正要拼的,到底是什麼?二、黃仁勳用34年驗證出,AI永遠替代不了的4種核心能力1. 遺忘痛苦的能力,以及相信未來的韌性所有瞭解輝達歷史的人,都知道CUDA平台,但很少有人知道,當年為了做CUDA,輝達差點破產。在CUDA誕生之前,輝達只是一家做遊戲顯示卡的公司,靠著GeForce系列產品站穩了腳跟。但黃仁勳從一開始就知道,只做單一功能的產品,路只會越走越窄。他想做的是通用的加速計算平台,CUDA就是這個夢想的核心。但這個決策,在當時幾乎是“自殺式”的。把CUDA放進每一塊GeForce顯示卡裡,會極大增加晶片成本,直接吞掉公司全部的毛利。當時輝達的市值大約在70億美元,而CUDA推出後,市值一路跌到了15億美元,全公司上下和資本市場,全是質疑的聲音。換做任何一個人,面對這樣的局面大機率都會止損放棄。但黃仁勳扛住了所有壓力,硬生生把這個決策堅持了十幾年,最終讓CUDA成了AI時代全球計算的核心底座,也讓輝達完成了從顯示卡公司到AI基礎設施巨頭的躍遷。很多人問他,到底是怎麼扛過那段至暗時刻的?他在訪談裡說了一句很有意思的話:AI學習最重要的屬性,就是系統性遺忘。人也是一樣,真正的韌性,從來不是扛住痛苦的能力,而是快速遺忘痛苦的能力。面對挫折和焦慮,他永遠只做三件事:第一,把問題徹底拆解,分開那些是可控的、那些是不可控的;第二,快速遺忘那些不可控的失敗、尷尬、羞辱,不把它們背在身上;第三,把所有精力,放到一件現在就能做的、可控的小事上,立刻行動。你看,AI能做最精準的機率計算,能做完美的邏輯推演,但它永遠不會有 “明知大機率失敗,依然願意賭上整個公司堅持” 的勇氣,不會有摔得粉身碎骨,依然能爬起來繼續走的堅定與韌性。AI時代,不確定性只會越來越多,比起完美的規劃,能扛事、能遺忘、能重新出發的韌性,才是你最基本的生存底氣。2. 共情與信任的能力這次訪談裡,黃仁勳講了一句輕描淡寫,但是讓商業圈大受震撼的話:輝達和台積電合作了30年,涉及數百億美元的生意,但雙方之間沒有一份正式的合同。不止是台積電,黃仁勳能提前3年說服全球頭部記憶體廠商,在HBM記憶體(筆記俠註:一種先進的半導體儲存技術,主要用於滿足高性能計算、人工智慧、圖形處理等領域對記憶體頻寬和傳輸速度的極高需求)還只用於小眾超級電腦、幾乎沒有商用場景的時候,就砸下數十億美元擴產。很多人覺得,這是因為輝達的行業地位,是因為利益繫結。但黃仁勳自己說,這靠的不是合同約束,不是利益算計,而是基於共同願景的信任。黃仁勳做所有事,都是把自己的戰略、對未來的判斷,毫無保留地分享給合作夥伴,從第一性原理出發,給他們講清楚 “為什麼要做這件事”,給他們充分質疑的機會,給他們足夠的尊重。黃仁勳會告訴他們,未來3年行業會發生什麼,這個投資會給他們帶來什麼長期價值。對內管理也是一樣。他管著60個直屬下屬,全是各領域的頂尖專家,但他從來不開一對一會議,所有問題都放在公開會議上,所有人一起推演、一起解決。有人問他,這麼多人,一對一溝通根本忙不過來,不怕資訊不對稱嗎?他說:恰恰是一對一會議,才會造成資訊不對稱。所有問題放在檯面上,所有人都能聽到上下游的訴求,都能理解彼此的難處,都能一起參與決策,這才是最高效的協作。而這一切的前提,就是信任。AI能把利益帳算到極致,能做最精準的博弈分析,能寫出滴水不漏的完美合同,雖然AI能把一件件事情做好,但人與人之間必須建立在信任的基礎上才能把一件件看似難以聯絡在一起的事情打通,它永遠理解不了“信任”兩個字的重量。商業的本質,是人和人的協作。一份合同,只能約束對方不做壞事,只能守住合作的底線;但一份信任,能驅動一群人,一起做成一件沒人做過的大事,能拉高合作的上限。AI時代,資訊越來越透明,計算越來越容易,但真正稀缺的,永遠是別人願意毫無保留地和你背靠背的信任。注意,AI有做事的能力,但是AI不是生命,無法理解生命之間不只是理性才能協同。3. 願景與意義感黃仁勳在訪談裡說,他的60個直屬下屬,個個都是各自領域的超人,每一個人在專業上,都比他聰明得多。很多人都好奇,一個專業能力不如所有下屬的人,憑什麼能帶著這家公司,做成兆級的事業?答案很簡單:他能給所有人一個共同的願景,能定義 “我們為什麼要做這件事”,能給所有的技術、所有的算力,找到一個真正有意義的方向。他在訪談裡說,未來全球能程式設計的人,會從現在的3000萬,暴增到10億。因為程式設計的本質,早就不是寫一行行程式碼了,而是給電腦提需求、定規格、描述你想要實現的目標。這件事,AI能幫你完成99%。但AI永遠不能定義的,是“我們為什麼要寫這個程式碼”、“我們要解決什麼人的什麼痛點”、“我們要給世界帶來什麼改變”。輝達能從一家遊戲顯示卡公司,進化成AI時代的全球頂尖公司,靠的不是黃仁勳比別人更懂晶片設計,而是他從一開始,就看準了“加速計算”這個方向,想給全世界的創新者,提供最強大的算力基礎設施。那怕在最艱難的時候,這個願景也從來沒變過。AI永遠不會有“我想改變世界”的願望,永遠不會有“我想幫使用者解決一個痛點”的初心,永遠不會有“我想給社會創造價值”的意義感。而所有偉大的企業、偉大的產品,本質上都是被願景和意義感驅動的。AI是一個無限強大的工具,但工具永遠需要人來定義方向。沒有方向的算力,再強也毫無意義;沒有意義的智能,再先進也走不遠。AI時代,最不缺的就是能幹活的工具,最稀缺的永遠是能定義方向、賦予意義的人。4. 謙遜與成長力那怕現在成了全球頂級的CEO,黃仁勳在訪談裡,依然坦然說起自己的第一份工作是在餐廳刷廁所。他從來沒有“成功者的傲慢”,永遠保持著初學者的心態,永遠在向所有人學習。最能體現這一點的,是他對“繼任計畫”的理解。很多人都知道,黃仁勳以“不相信繼任計畫”聞名。有人說,這是因為他貪戀權力,覺得自己能一直幹下去。但他在訪談裡,給出了完全不一樣的答案:“我不相信繼任計畫,不是因為我是永生的。而是因為如果你真的關心公司在你之後的未來,你今天最該做的事,不是找一個接班人,而是持續地、毫無保留地傳遞知識、資訊、洞察力、技能和經驗,賦能你身邊的每一個人。”他的每一次會議,都是一次公開的推理會議。他不會直接下達指令,而是會把自己的思考邏輯、判斷依據、甚至是顧慮和不確定性,全部攤開給團隊看,帶著所有人一起推演,一起最佳化,一起成長。他學到的任何東西,從來不會在自己的腦子裡停留超過一秒鐘,立刻就會分享給團隊。他討厭“持續改進”的思維,因為這種思維本質上是默認了“現在的做法是對的”,只能小修小補。而他永遠會回到零,回到第一性原理,問自己:這件事為什麼要這麼做?如果從頭開始,以今天的技術和條件,我們能做成什麼樣?這種思維的前提,就是永遠保持謙遜,永遠不被自己過去的經驗和優越感困住。所以,真正的長期主義,本質上就是持續成長的能力,就是永遠能打破自己、重構自己的能力。AI時代,知識更新的速度只會越來越快,比起你已經掌握的知識,永遠保持謙遜、永遠能成長的能力,才是決定你能走多遠的核心。三、AI時代,修煉 “人性競爭力” 的4句話1. 把工作分成兩類:一類是標準化智力任務:比如做資料統計、寫常規程式碼、整理資料、套範本做方案、重複的報表分析;另一類是人性價值任務:比如和使用者聊真實的需求痛點、和團隊做深度溝通、制定業務的長期方向、解決非標準化的複雜問題、給客戶提供有溫度的服務。未來,要把你80%的精力,放到後者上面。AI能幫你高效完成前者,但後者才是你不可替代的核心價值。2. 比起完美的規劃,能讓你在不確定性裡站穩腳跟的,永遠是立刻行動的韌性。3. 不管是對合作夥伴、團隊同事,還是你的客戶,放棄零和博弈和 “算計到底” 的小聰明。和客戶合作,多做一件超出預期的事,那怕只是多給一個實用的小建議;和同事協作,多一分坦誠的溝通,少一點背後的算計;和夥伴相處,多站在對方的角度考慮問題,守住自己的底線,也給對方足夠的尊重。4. 永遠保持 “初學者心態”,放棄你的智商優越感。結語今天我們深嵌於一個新的時代,科技、經濟、哲學、政治都在經歷持續變革和深刻重塑的複雜社會與商業環境之中,而真正困住絕大多數人的核心挑戰,恰恰是:我們的認知框架、組織形態和行動邏輯,還停留在“前全球化時代”、“前AI時代”。 (筆記俠)
Gemini 3.1 Pro突襲:推理能力翻倍,Google打響AI"小步快跑"第一槍
引言當行業還在期待GPT-5.3時,Google用一場".1"版本號革命重新定義了AI迭代節奏。2026年2月24日凌晨,Google突然發佈Gemini 3.1 Pro大模型,這是其首次採用".1"小版本號,但升級幅度卻遠超預期。在ARC-AGI-2基準測試中,Gemini 3.1 Pro得分77.1%,是Gemini 3 Pro(31.1%)的2倍還多。這一突破不僅刷新了Google自身的技術紀錄,更標誌著大模型行業正式進入"高頻小步快跑"的新時代。更關鍵的是定價策略:每百萬token輸入僅2美元,輸出10美元,這一價格直接對標Anthropic Sonnet 4.6,在保持性能領先的同時實現了成本的大幅最佳化。Google用行動證明,AI競爭不再是"參數軍備競賽",而是"效率與速度的比拚"。01 技術突破:推理能力的量子躍遷Gemini 3.1 Pro最引人注目的突破在於推理能力的翻倍提升。傳統大模型升級往往聚焦於參數規模或多模態能力,而Google此次選擇了更艱難的路徑——從根本上提升模型的邏輯推理和問題解決能力。ARC-AGI-2基準測試的77.1%得分意味著什麼?這一測試專門評估AI系統的抽象推理能力,要求模型從有限示例中歸納出通用規則,並應用於全新場景。77.1%的得分不僅超越了所有前代Gemini模型,更接近了人類專家的表現水平。對比之下,GPT-5.2在同一測試中的得分為68.3%,Claude Opus 4.6為72.8%。多模態能力的全面進化同樣令人印象深刻。Gemini 3.1 Pro支援100萬token超長上下文窗口,能夠一次性處理整本書等級的文件或大型程式碼庫。在創意程式設計方面,模型能夠直接生成3D版"椋鳥群飛"動畫,並支援手勢追蹤互動,實現了從靜態內容生成到動態互動體驗的跨越。vibe coding能力的同步增強為開發者帶來了全新體驗。模型能夠更好地理解程式碼背後的設計意圖和架構邏輯,而不僅僅是語法正確性。實測資料顯示,在處理複雜演算法重構、架構最佳化等任務時,Gemini 3.1 Pro的精準率比前代提升45%。02 行業意義:從"整數版本"到".1迭代"的範式轉變Google首次採用".1"小版本號,這一看似微小的變化背後,是AI行業發展邏輯的根本性轉變。高頻小步快跑成為新常態。傳統上,大模型迭代以整數版本為單位,升級周期長達數月甚至半年。Gemini 3.1 Pro的發佈預示著,未來AI能力的進化將更加頻繁、更加精細。預計未來6個月內,我們將看到更多".1"、".2"等級的快速迭代,而非傳統的整數版本更新。企業應用更新機製麵臨重構。對於依賴AI服務的企業而言,這意味著需要建立更敏捷的AI應用更新機制。傳統"一年一升級"的節奏將被打破,企業需要能夠快速適配模型能力的持續最佳化,保持競爭優勢。技術競爭維度更加多元。當版本迭代頻率提升,競爭不再侷限於"誰先發佈大版本",而是"誰能持續提供最優體驗"。這要求廠商在模型最佳化、工程效率、生態建設等多個維度保持領先。使用者受益程度顯著提升。更頻繁的迭代意味著使用者能夠更快享受到技術進步帶來的價值。無論是開發者工具的增強,還是消費級應用的體驗最佳化,都將以更快的節奏呈現給終端使用者。03 定價策略:性能領先下的成本最佳化Gemini 3.1 Pro的定價策略同樣體現了Google的戰略思考。每百萬token輸入2美元、輸出10美元的價格,在保持性能領先的同時,實現了對競品的成本優勢。對比分析顯示:相比Anthropic Sonnet 4.6(輸入3美元、輸出15美元),Gemini 3.1 Pro便宜33%相比OpenAI GPT-5.2 Turbo(輸入5美元、輸出15美元),成本優勢更加明顯在相同預算下,企業可以處理更多token量,實現更高的投入產出比中小企業市場成為重點。傳統高性能AI服務主要被大型企業壟斷,而Gemini 3.1 Pro的親民定價,意味著更多中小企業能夠負擔得起頂尖AI能力。這對於加速AI技術普惠、推動行業數位化轉型具有重要意義。開發者生態的吸引力增強。對於個人開發者和初創團隊而言,成本是選擇AI服務的關鍵考量。Gemini 3.1 Pro的性價比優勢,將吸引更多開發者加入Google生態,推動應用創新的繁榮。04 生態佈局:從模型到應用的全鏈路最佳化Gemini 3.1 Pro的發佈不是孤立事件,而是GoogleAI生態戰略的重要一環。Gemini App已全面上線。普通使用者可以通過Gemini App直接體驗新模型,享受比前代更精準的複雜問題解答能力。實測顯示,在處理數學證明、邏輯推理、專業諮詢等任務時,新模型的精準率和響應速度均有顯著提升。API服務的全面升級。開發者可以通過Gemini API快速接入新模型,享受推理能力翻倍帶來的效率提升。Google同時最佳化了API的穩定性和響應速度,確保企業級應用的高可用性。多模態創作工具鏈完善。結合Gemini 3.1 Pro強大的多模態能力,Google推出了全新的創意工具套件,支援"文生視訊+互動"的新型內容形式。這對於內容創作者、教育工作者、行銷人員等群體具有重要價值。企業級解決方案深化。針對金融、醫療、法律等垂直行業,Google提供了基於Gemini 3.1 Pro的定製化解決方案,幫助企業在保持資料安全的前提下,享受AI技術帶來的效率提升。05 競爭格局:三巨頭技術路線的分化Gemini 3.1 Pro的發佈,進一步凸顯了AI三巨頭技術路線的分化。Google的"推理優先"路線。通過持續最佳化模型的邏輯推理能力,Google正在建構差異化的技術優勢。在需要複雜問題解決、專業諮詢、科學計算等場景中,Gemini系列的表現日益突出。OpenAI的"通用能力"路線。GPT系列繼續強化其通用性和適應性,在保持各方面能力均衡的同時,通過規模效應降低成本。但整數版本迭代周期較長,可能面臨敏捷性挑戰。Anthropic的"安全與專業"路線。Claude系列在AI安全、專業任務處理上持續深耕,特別是在程式碼安全、法律合規等垂直領域建立了獨特優勢。但定價相對較高,可能限制其規模化應用。國產大模型的追趕壓力。雖然DeepSeek、智譜GLM-5等國產模型在特定領域表現出色,但在推理能力的系統性提升上仍需追趕。Gemini 3.1 Pro的發佈,為國產模型提供了重要的技術參考和競爭標竿。06 實測體驗:從"工具"到"思維夥伴"的進化對於一線使用者而言,Gemini 3.1 Pro帶來的體驗升級是實實在在的。複雜問題處理能力顯著提升。在測試中,模型能夠準確解答研究生等級的數學證明題,理解複雜的法律條文邏輯,提供專業的醫療諮詢建議。這種能力的提升,讓AI從簡單的資訊檢索工具,進化為真正的"思維夥伴"。長文件理解更加精準。得益於100萬token的上下文窗口,模型能夠準確理解整本書、大型程式碼庫、複雜研究報告的內容。在處理學術論文審稿、程式碼架構評審等任務時,表現接近人類專家水平。創意表達更加豐富。在內容創作測試中,模型不僅能夠生成高品質的文字內容,還能夠創作互動式動畫、設計複雜的資料可視化圖表、製作專業的簡報。這種多模態創作能力,為創意工作者提供了全新的工具。響應速度持續最佳化。官方資料顯示,Gemini 3.1 Pro的響應時間相比前代縮短30%,在處理複雜推理任務時,使用者能夠感受到明顯的流暢度提升。也看到了Gemini新增的製作音樂模組(終於有人挑戰suno了),試了一下做一首30秒的武俠歌曲,完成度也很不錯。gemini給我做的國風武俠電影主題曲07 未來展望:AI發展的新節奏與新挑戰Gemini 3.1 Pro的發佈,不僅是一個產品的升級,更預示著AI行業發展的新節奏。技術迭代的加速度。".1"版本號的出現,意味著技術進步的顆粒度更加精細,迭代頻率更加密集。這要求整個行業建立更加敏捷的研發體系、更加靈活的部署架構、更加智能的測試方法。應用創新的新機遇。更強大的推理能力,將催生更多創新應用場景。從智能教育輔導到專業諮詢服務,從科學計算輔助到複雜決策支援,AI的應用邊界將持續擴展。人才需求的結構性變化。隨著AI能力的快速進化,對AI人才的需求將從"模型訓練專家"向"應用創新專家"轉變。能夠將AI能力與行業需求深度結合的人才,將成為市場的新寵。倫理治理的緊迫性。更強大的推理能力,也帶來了新的倫理挑戰。如何確保AI系統的決策透明、公平、可控,將成為行業必須面對的重要課題。結語Google的這次".1版本突襲",表面上是技術升級,深層則是行業競爭邏輯的根本性轉變。當AI發展從"整數版本躍進"轉向"小數版本迭代",整個行業的節奏、格局、規則都將被重新定義。推理能力的翻倍提升,不僅僅是技術參數的最佳化,更是AI從"資訊處理工具"向"智能思維夥伴"進化的重要里程碑。在這個AI重新定義一切的時代,能夠率先突破推理瓶頸、建構持續最佳化能力的企業,將掌握下一個階段的發展主動權。真正的競爭才剛剛開始。技術優勢需要轉化為生態優勢,單點突破需要擴展為系統領先。對於全球AI產業而言,Gemini 3.1 Pro的發佈既是挑戰,也是機遇。在這個AI從"炫技"走向"實用"的關鍵轉折點,能夠平衡技術創新與商業落地的企業,將引領行業進入更加成熟、務實的新階段。當矽谷醒來時,會發現AI競爭的規則已經改變。這場始於".1版本號"的技術革命,或許將開啟全球AI發展的新篇章——一個更加注重實用性、可及性和可持續性的新篇章。 (遊戲AI說)
新德里這場對話,Sam Altman 把 AI 最難的題說透了
AI 能力在加速,這是共識。但真正的問題是什麼?2026 年 2 月 20 日,OpenAI CEO Sam Altman 在新德里的一場訪談裡,給出了他的答案:四道題。能力到那了?算力夠不夠?工作怎麼變?社會跟得上嗎?他沒給標準答案,但把每道題的難點說清楚了。比如 First Proof 為什麼能做對 7 道研究題,Codex 在印度為什麼增長最快,算力瓶頸到底卡在那,工作到底是被替代還是被重寫。拋開字斟句酌的公關話術,這是一次難得的坦率交底。我們整理了訪談的核心內容:AI 能力到那了?算力天花板在那?工作會怎麼變?治理為什麼最難?第一道題|能力到那了:已經跨入“研究級”門檻關於 AI 的真實能力邊界,Altman 強調,過去這一年,模型絕不只是“變聰明了一點”,而是任務難度完全不同了。過去一年,模型從高中數學跨到了研究級數學;從能解釋程式碼,到能生成可運行的應用;從回答物理概念,到推導物理學的新結果。1、從做題到做研究Altman舉了兩個例子: 在 First Proof 實驗(11位頂尖數學家發起的AI測試)中,模型面對10 個研究級數學問題,成功解出了7個。這7道題都有完整推導過程,靠的是邏輯推演。在理論物理學領域,AI也開始推導新的物理學結果,觸及人類知識的前沿。2、工程師的工作重心在變程式設計領域的變化更直觀。很多開發者現在給Codex一個功能描述,它就能生成初版應用:介面、互動、邏輯都有。印度成了全球使用者增長最快的市場。Altman說,大量年輕開發者跳過了傳統程式設計師必經的底層訓練,直接上手就能做出作品。這在開發者群體快速增長的國家特別明顯。3、AGI 已經很接近主持人問到 AGI還有多遠。 Altman的回答很直接:已經很接近了。他給出了一個很有意思的視角:如果時間倒退回六年前,告訴大家有一個系統能做前沿研究、能寫複雜程序、能勝任各種高難度的知識工作,當時的大多數人一定會驚呼“這就是 AGI”。只不過現在,我們身在其中,逐漸對強大的工具習以為常了。按照目前的速度,到 2028 年底,全球 AI 系統同時處理的工作量,可能會超過全人類的總和。從數學、物理、程式設計這些最難突破的領域看,今天 AI 能完成的,已經包括過去只有高技能人才才能處理的知識工作。看懂了今天 AI 這種驚人的能力躍升,我們才能真正明白,為什麼 Altman 接下來會如此急迫地談論“算力瓶頸”。第二道題|算力夠不夠:遠遠不夠主持人問:未來三到五年,AI 最大的限制是什麼?Altman 毫不猶豫地說:算力。 能不能讓足夠多的人,用上足夠強的 AI?這是當下最現實的問題。1、強模型有,但 GPU 不夠用Altman 透露,團隊在實驗室裡看到的模型能力,比公開版本要強得多。之所以沒有全量發佈,是因為算力成本太高。我們有頂級的模型,卻沒有足夠的 GPU 來支撐它全天候為所有人服務。為瞭解決這個問題,OpenAI 在多條線上同時推進:繼續加深與輝達的合作;支援新興晶片公司做推理端的最佳化;同時推進 OpenAI 自己的自研晶片計畫。外界將此解讀為“多線平行”,但 Altman 給的理由極其簡單:要把更強的 AI 推向更廣泛的人群,算力必須大幅擴張。所有能擴產能的路,都必須走。2、真正的天花板:不是水,而是電針對外界流傳甚廣的“每次呼叫 AI 要消耗 17 加侖水”的說法,Altman 明確予以否認。他表示水的使用量被嚴重誇大了,真正需要關注的是能源。他給出了一個對比:訓練一個高智商的人類同樣極其耗能。你需要投入 20 年的時間,以及這 20 年裡他吃掉的所有食物;甚至,還需要算上過去數千代人在進化中學會躲避掠食者、發展出科學,你才有了今天的智慧。相比之下,當模型訓練完成後,AI 回答一個問題的能源效率,其實已經趕上了人類。但真正的挑戰在於“規模”。 下一代資料中心的耗電量將是驚人的。模型越來越龐大,使用者急劇增加,每次呼叫都需要海量晶片協同工作。未來的算力命脈,將極度依賴核能、風能、太陽能,甚至需要為 AI 專門建造超級能源站。3、未來的需求到底有多大?Altman 反問了一個問題:“你個人希望有多少個 GPU 隨時待命為你工作?”答案從來沒有低於過 1 個。甚至有人開口就要 1000 個。試想一下,如果全球 80 億人每人都需要 1000 個專屬 GPU,那就是 80 兆個。這個規模,短期內根本做不到。這意味著,算力需求的上限遠超我們當下的想像。當 AI 徹底融入每個人的工作流,呼叫量將是現在的數十百倍,算力會像今天的水和電一樣,成為最底層的社會基礎設施。這也是為什麼 Altman 感嘆:“擴充算力,可能是人類歷史上最複雜的合作工程。”靠傳統的人力去搞基建,絕對完不成這個任務。好消息是,未來的 AI 和機器人會反過來幫我們建造這些設施。4、基建搞到太空裡?現在還太早。當被問及是否有建造“太空資料中心”的極端可能性時,Altman 明確表示:在目前的情況下,這個想法非常荒謬。發射成本、GPU 的太空維修、能源的穩定供應…… 這些問題一個都還沒解決,近十年內,軌道資料中心都不可能大規模落地。如果說第一道題是在講 AI “能做什麼”,那麼第二道題的核心就是:“你能不能用得上”。 在這場競賽裡,率先掌握穩定且龐大算力的組織,就能拿走下一輪效率革命的入場券。第三道題|工作怎麼變:性質在變,不會消失在對話中,主持人問到最敏感的問題:AI 會讓多少人失去工作?Altman 說,過去一年他看到的變化是:工作沒有消失,但做事方式完全不同了。1、知識型崗位受衝擊最明顯過去一年,程式設計師群體感受最明顯。Altman拿自己舉了個例子:“我本人就是學軟體工程出身的,但我當年學程式設計的那套方法,現在已經徹底過時了。手工編寫C++程式碼的時代,已經結束了。”軟體工程師還需要,但工作內容變了。以前寫程式碼是從零開始搭結構、寫邏輯、偵錯;現在,大段的初版程式碼都由AI一鍵生成,人做的是結構調整、細節修正、風險檢查、體驗提升。這個變化不只發生在程式設計領域。影視創作也一樣:字節跳動 2 月發佈的Seedance 2.0,能從幾句文字描述直接生成電影級視訊片段,導演賈樟柯用它創作了短片《賈樟柯的舞蹈》。大多數知識工作都類似:AI 生成初稿,人負責方向、質量和判斷。2、新機會在那裡?每次技術革命都會洗牌,但最終總會湧現更多的新崗位,只不過這次的浪潮來得更快、更猛。Altman 總結了三個正在發生的趨勢:“超級個體”崛起: 過去開發一個產品需要設計、前端、後端、營運齊上陣;現在,一個人配上一套 AI 工具鏈,就能打造一家完整的“一人公司(OPC)”。創作門檻大幅降低: 不僅僅是程式設計,視訊剪輯、產品設計、文案寫作,過去需要長年專業訓練的技能,現在幾天就能上手。企業內部分工在變: 純做財務的人可以利用 AI 搭建流程自動化系統;不懂程式碼的營運也能直接生成實用的內部工具。用 Altman 的一句話概括就是:“AI 讓很多專業技能變簡單了:以前要專門學,現在會用工具就夠。”3、什麼能力變得更重要?與 AI 深度協作的能力: 會提出好問題(Prompt),會審查生成結果,會組合各種 AI 工具。你要把 AI 當作一個需要磨合的長期合夥人。極致的適應力: 技術迭代在瘋狂加速,過去十年的跨度現在一年就能跑完。能不能在劇變中迅速找到自己的新生態位,是生死攸關的能力。對“人”的深刻理解: AI 再強大,也不知道“什麼樣的設計能直擊人心”、“什麼樣的功能最懂人性的軟肋”。這是人類獨有的嗅覺。此外,Altman 強調了“情感連接”的不可替代性。比如圖像生成 AI 剛出來時,很多人哀嘆插畫師完了。對於批次生產的商業設計(比如生日賀卡)確實如此;但在純藝術領域,AI 生成的畫作價格很低,而人類藝術家創作的作品價格依然在漲。因為人們在乎的是作品背後的那個人。同樣,他提到最近去醫院的經歷,他在意的是護士的細心照料與情感安撫。如果換成一個冷冰冰的機器人,再聰明、再精準,他也會感到排斥。有些工作的核心價值,建立在人與人的連接之上。4、教育方式也在調整既然工作性質變了,教育體系就必須隨之徹底重構。Altman 說,AI 不會讓孩子變懶,關鍵是教學方式能不能跟上工具變化。他回憶起自己上學時,Google剛剛問世。中學老師覺得:如果能直接在Google上查,為什麼還要背歷史日期?他的回答是:死記硬背本來就是浪費時間。幾年後,老師們逐漸接受了,教育系統也在演進。新工具帶來的過程都是這樣:能力提升,要求也提升,我們開始教人們更深入地思考、創造更多。如果學生一直被要求“背內容”、“做重複練習”,自然會被 AI 替代。但如果強調思考方式、項目能力、如何用工具解決問題,AI 反而會讓學習更高效。教育的重點,也將會從“會不會”轉向“怎麼用”。未來的每個人競爭力在於誰能更快把 AI 融入日常工作,讓自己從重複勞動中解放出來,把時間用在更高價值的部分。第四道題|社會跟得上嗎:這是最難的前三道題講了能力、算力、工作。最難的題是:社會跟得上嗎?模型訓練速度在加快,能力在跳躍,可能一年就跨越多代。但社會結構的變化,職業體系、企業流程、法律框架、公共認知,不可能同步跟進。Altman 說:能力提升容易,學會怎麼用才難。1、治理的核心:給社會留出適應時間面對外界對 AI 失控的恐慌,Altman 坦言,他最擔心的是大眾對“治理”的誤解。很多人把監管等同於“阻擋技術前進”,卻忽略了監管的真正目的:是幫助社會打好地基,去安全地擁抱這種前所未有的新能力。他給出了破局的三個關鍵點:逐步開放新功能。新功能上線,使用者學習,行業適應,風險暴露,再調整。這就是“迭代部署”的意義:給社會留出適應時間,不是一次性放開。讓更多人用得起最強工具。如果只有少數人用得起,創新、教育、創業都會受限。普惠既降低風險,也擴大機會。真正的風險來自不會用。模型不懂人類價值,但人懂。問題出在不知道怎麼正確使用,不具備判斷能力,用老辦法應對新工具。2、治理靠分散智慧,各國在探索現在,各個國家正在嘗試不同的監管方法。Altman 認為這是好事:接下來幾年,我們會看到很多不同的嘗試,觀察那些有效、那些無效。世界會傾向於更有效的方法。他尤其強調,當 AI 滲透到千行百業,單靠任何一家科技巨頭,都不可能搞懂所有領域的細節風險。Altman 說:“好的辦法是讓各行各業的人都來討論,而不是只靠科技公司制定規則。”各行各業參與能減少風險,但不能消除不確定性。面對這樣強大的技術,Altman 說,最重要的是保持謙遜。我們最好的猜測也可能是錯的,AI 的發展已經帶來了很多意外,未來還會有更多。結語|說透了什麼這場新德里的訪談,Altman 講了四道題:能力到那了:已經能做研究級工作算力夠不夠:遠遠不夠工作怎麼變:性質在變,不會消失社會跟得上嗎:這是最難的他沒給答案,但把每道題的核心矛盾說清楚了。能力在跨越,算力在追趕,工作在重塑,社會在適應。誰能更快把 AI 融入日常工作,誰就能在這輪變化中佔據主動。 (AI深度研究員)
輝達仍是王者!GB200貴一倍卻暴省15倍,AMD輸得徹底
AI推理遊戲規則,正悄然改變。一份最新報告揭示了關鍵轉折:如今決定勝負的,不再是單純的晶片性能或GPU數量,而是 「每一美元能輸出多少智能」。AI推理,現已不只看算力硬指標了!Signal65一份最新報告中,輝達GB200 NVL72是AMD MI350X吞吐量28倍。而且,在高互動場景在,DeepSeek R1每Token成本還能低到15倍。GB200每小時單價大概是貴一倍左右,但這根本不重要。因為機櫃級NVLink互聯+軟體調度能力,徹底改變了成本結構。頂級投資人Ben Pouladian稱,「目前的關鍵不再是算力或GPU數量,而是每一美元能買到多少智能輸出」。如今,輝達仍是王者。其他競爭對手根本做不到這種互動水平,這就是護城河。最關鍵的是,這還沒有整合200億刀買入Groq的推理能力。這裡,再mark下老黃至理名言——The more you buy, the more you save!AI推理重心:一美元輸出多少智能?這篇萬字報告,探索了從稠密模型(Dense)到混合專家模型(MoE)推理背後的一些本質現象。傳統的「稠密模型」架構要求:在生成每個Token時都啟動模型裡的全部參數。這就意味著:模型越大,運行越慢、成本越高,同時還會帶來相應的記憶體需求增長等問題。MoE架構,正是為了釋放更高水平的智能而生——在每個Token上只啟動最相關的「專家」。摟一眼Artificial Analysis排行榜即可發現,全球TOP 10開源LLM,全部都是MoE推理模型。它們會在推理階段額外「加算力」來提高精準性:LLM不會立刻吐出答案,而是先生成中間的推理Token,再輸出,相當於先把請求和解法「想一遍」。前16名裡有12個是MoE模型這些推理Token往往遠多於最終回覆,而且可能完全不會展示出來。能否既快又便宜地生成Token,對推理部署來說就變得至關重要。那麼,MoE方法的主要約束在那裡?一個核心限制在於「通訊瓶頸」。當不同專家分佈在多塊GPU上時,任何GPU之間通訊的延遲,都會讓GPU空閒等待資料。OpenRouter一份近期報告,超50%的Token會被路由到推理模型上這些「空轉時間」(idle time)代表著被浪費的、低效的算力,並且會直接體現在服務提供商的成本底線上。當評估AI基礎設施的「經濟性」時,一般會聚焦在三個方面:性能(吞吐量與互動性)能效(在既定功耗預算下,可生成的Token數)總體擁有成本(通常以Token/每百萬的成本衡量)基於公開可用的基準測試資料,Signal65對不同LLM架構下AI基礎設施方案進行了對比分析。分析中,團隊採用第三方基準測試所提供的性能資料,來估算相對的Token經濟性。具體來說,他們選取了B200、GB200 NVL72,以及AMD MI355X部分結果,用以對比它們在不同模型場景下的真實性能表現及相應的TCO估算。結果顯示,在稠密架構以及較小規模的MoE中,B200性能優於AMD MI355X。當模型擴展到像DeepSeek-R1這樣需跨越單節點的前沿級規模時,GB200 NVL72性能最高可達到MI355X的28倍。在高互動性的推理工作負載中,NVL72的單位Token成本最低,可降至其他方案的約1/15。儘管GB200 NVL72的單GPU小時價格幾乎是這些競爭平台的2倍,但其機架級能力——從NVLink高速互連,到覆蓋72塊GPU的軟體編排——共同推動了這種顯著更優的單位經濟性。價值評估的重心,正在從單純的原始FLOPs,轉向「每一美元所獲得的總體智能」。這一結論非常明確:隨著MoE模型和推理工作負載帶來的複雜性與規模持續上升,行業已無法僅依賴晶片層面的性能提升。能夠在系統層面實現峰值性能的端到端平台設計,已經成為實現低成本、高響應AI服務的關鍵槓桿。「稠密模型」推理,輝達領先Signal65選擇了Llama 3.3 70B作為稠密模型的性能基準,結果如下所示:帕累托曲線清晰顯示出,HGX B200-TRT方案在整個吞吐量與互動性區間內,都具備持續的性能優勢。具體到基線互動性水平,B200的性能大約是MI355X的1.8倍,這為互動式應用部署,以及更高的單GPU並行密度提供了顯著余量。再來看,當互動性提升至110 tokens/sec/user時,這一優勢進一步被放大:B200吞吐量超過MI355X的6倍。整體上,在Llama 3.3 70B測試中,AMD MI355X在單位成本性能方面確實具備一定吸引力。但這種優勢並不能代表更現代的推理技術堆疊,尤其是以MoE架構和高強度推理工作負載建構的系統。MoE推理,輝達領先那麼,在MoE架構上,輝達和AMD表現又如何?中等規模推理:gpt-oss-120BSignal65認為,OpenAI gpt-oss-120B是理解MoE部署特性的一個理想「橋樑案例」。它足夠大,可以把MoE的複雜性暴露出來;但規模又沒有大到離譜,仍然是很多團隊能現實部署並調優的範圍。它處在一個很有用的中間地帶:介於稠密的70B級模型,與市場正在快速轉向的、更前沿的推理型MoE架構之間。在10月下旬資料裡,當目標是100 tokens/sec/user時,B200大約比MI355X快1.4倍;但當目標提高到250 tokens/sec/user時,差距會擴大到約3.5倍,說明越追求「更快的互動」,平台差異越容易被放大。不過,12月上旬的資料則呈現出不同局面。得益於軟體最佳化,兩邊平台的絕對性能都明顯提升:輝達單GPU峰值吞吐從大約7,000 tokens/sec提升到超過14,000;AMD也從約6,000提升到大約8,500。前沿推理:DeepSeek-R1在DeepSeek-R1推理上,測試結果正如開篇所介紹那樣,輝達GB200 NVL72大幅領先。更多資料如下圖所示:基準測試資料展示了一個被重塑的格局:GB200 NVL72讓「超過8塊GPU的張量平行配置」也能進入帕累托前沿,達到單節點平台根本無法匹敵的性能。在25 tokens/sec/user互動性目標下,GB200 NVL72單GPU性能大約是H200的10倍,並且超過MI325X單GPU性能的16倍。這類性能差距,正是能為AI服務提供商帶來「斷崖式」TCO改善的那種差距。當互動性目標提高到60 tokens/sec/user時,GB200 NVL72相比H200帶來了超24倍的代際提升,同時也接近MI355X的11.5倍性能。在同樣25 tokens/sec/user下,GB200 NVL72單GPU性能大約是B200的2倍、是MI355X的5.9倍;而到60 tokens/sec/user時,這些優勢進一步擴大:相對單節點B200達到5.3倍、相對MI355X達到11.5倍。GPU越貴,token成本越低輝達從Hopper過渡到Blackwell,並推出GB200 NVL72時,不僅提升了每GPU算力、記憶體頻寬以及NVLink互連頻寬,還對底層系統架構做了重新設計。從8-GPU風冷HGX伺服器轉向全液冷的機架級系統,並把72塊GPU連接在同一個域內,系統成本和複雜度顯然都上升了。據CoreWeave公佈的目錄價,按單GPU口徑,GB200 NVL72價格大約比H200貴1.7倍。不過,每一代新技術的目標之一,就是壓低「每Token成本」。對推理而言,具體就是:實際交付的Token吞吐提升幅度,要超過底層基礎設施成本的提升幅度。而從公開的性能資料來看,這正是GB200 NVL72相比Hopper所呈現出的結果。Signal65把本次的tokenomics(Token經濟學)分析,錨定在前文建立的DeepSeek-R1性能差距上:在25 tokens/sec/user時,GB200 NVL72單GPU性能大約是H200的10倍;在更高的互動點位上,這個差距會更大(24倍)。下表總結了成本歸一化,以及由此得到的「每美元性能」計算:這些結果一開始可能有點反直覺:更「貴」的GPU反而更省錢——因為它帶來的性能提升遠大於價格差異,使得它能以更低成本生成Token。與AMD相比,輝達系統在推理token成本上的一些資料對比:按單GPU口徑,MI355X價格大約只有GB200 NVL72配置的一半;但由於GB200 NVL72單GPU性能優勢從低端接近6倍,到高互動性時高達28倍不等,輝達仍然能提供最高15倍的每美元性能優勢。換句話說,輝達能實現相對每Token成本僅為競爭對手的1/15。結論前沿AI模型的未來,會是更大、更複雜的MoE。隨著模型更深地走向MoE與推理架構,最終效果將不再只取決於原始GPU性能或記憶體容量。平台級設計會成為決定性因素——包括互連與通訊效率、多節點擴展特性、軟體棧成熟度、生態支援與編排能力,以及在並行與混合負載下維持高利用率的能力。從當前趨勢看,來自OpenAI、Meta、Anthropic等前沿公司的旗艦模型,很可能會繼續沿著MoE與推理方向演進。如果這一軌跡成立,輝達將維持關鍵的性能與經濟性優勢。GoogleTPU這類架構也提供機架級方案,但它們對非自家模型的適用性與性能表現仍不明確。本文記錄的性能差異,能夠直接轉化為可量化的商業結果:在既定互動性閾值下,每部署一塊GPU能服務更多使用者,就能降低每個「有用Token」的生成成本,提高每機架的收入潛力(通過規模化交付更高價值的體驗),最終AI企業和部署AI的企業獲得更好的TCO。一個具體例子足以說明量級:當一個平台在某個互動性目標下,能提供28倍的單GPU吞吐提升時,它可以在不需要線性擴大硬體規模的情況下,解鎖新的產品檔位以及更複雜的功能。這就是AI推理「經濟學」,而它會更偏向那些從底層就為MoE與推理時代而設計的平台。 (新智元)
馬斯克談每年發射100萬噸AI衛星
馬斯克近日在社交平台X上闡述了大規模部署太空AI衛星的構想,計畫每年向太空發射總量達100萬噸的衛星,以實現每年在太空部署100吉瓦人工智慧運算能力的目標。他認為,這些衛星能為超大規模AI應用提供能源。馬斯克指出,搭載本地化AI計算的衛星,其結果將從低延遲的太陽同步軌道傳回,這將是3年內產生AI位元流的成本最低的方式。到目前為止,這也將是未來4年內實現規模擴張的最快路徑。馬斯克解釋稱,“在地球上已經很難找到簡單的電力來源。100萬噸/年的衛星,每顆衛星功率100千瓦,則每年可增加100吉瓦的AI算力,無需營運或維護成本,通過高頻寬雷射連接到星鏈(Starlink)星座。”馬斯克進一步指出,更高級的是在月球上建造衛星工廠,並使用大規模驅動器(電磁軌道炮)在不需要火箭的情況下將人工智慧衛星加速到月球逃逸速度。“這相當於每年100兆瓦特的人工智慧,並使成為卡爾達肖夫II型文明取得重大進展。”馬斯克在另一條帖子中補充道:“一旦月球上有了月球工廠、機器人和大規模驅動器,整個循環就會閉合,這個系統可能會與傳統貨幣脫鉤,並以瓦特和噸位為單位自主運行。”一位網友評論稱:“埃隆·馬斯克正在談論每年將100萬噸用於AI計算的星鏈衛星送入軌道。我們目前每年向軌道發射大約3000噸衛星,其中大部分已經是SpaceX的衛星。100萬噸意味著每天發射25艘以上的星艦飛船!”另一位網友翻出了馬斯克今年8月的一條帖子,“在大約6到7年的時間裡,星艦飛船將實現24小時內發射超過24次。”在11月與特斯拉投資者羅恩·巴倫(Ron Baron)的一次訪談中,馬斯克曾表示,他看到了一條可行的技術路徑,每年將100吉瓦的太陽能驅動的AI衛星送入軌道,並稱這可能是“大規模驅動和運行AI的最低成本方式”。作為參考,美國當前的平均用電負載約為460吉瓦。馬斯克還談到,隨著AI與機器人技術發展,“未來將會實現對人類需求的完全滿足”,所有人都能從中受益。對於未來的目標,他形容自己的願景是採取能夠“擴展意識到未來”的行動,推動人類探索其他星系,“像《星際迷航》那樣前往從未有人到過的地方”,並更深入理解宇宙本質。 (i商周)
中美AI算力中盤博弈:開放與封閉之爭
近日,GoogleTPU攜Gemini3逆襲之勢大幅拓寬增量前景,Meta考慮斥資數十億美元為其買單,機構將TPU產量預期上調67%至500萬塊。基於“晶片-光交換網路-大模型-雲服務”全鏈閉環,Google智算體系重回AI賽道前沿梯隊,標誌著美式封閉壟斷路線更進一步。與此同時,以DeepSeek為代表的開源模型緊追不捨。月初,DeepSeek V3.2及其長思考增強版模型出爐,前者在性能測試中打平ChatGPT,後者直接對標閉源模型頂流Gemini。這也預示著中國開源開放路線漸入佳境,國產智算體系在應用層展現出良好的生態協同潛力。至此,中美AI產業博弈棋至中盤,“開放協同”與“封閉壟斷”對位格局愈發清晰。尤其在智算生態佈局中,兩大陣營或正醞釀著一場體系化能力的巔峰較量。從Gemini 3到TPU v7,軟硬一體閉環臻至極境毋庸置疑,GoogleTPU的突然走紅,很大程度得益於Gemini3的模型能力驗證。作為專為GoogleTensorFlow框架而生的ASIC晶片,TPU憑藉軟硬體一體化設計為其全端閉環完成奠基,同時也在上層應用高位突破時俘獲外部使用者市場,甚至一度被視為輝達GPU的最強平替。所謂“軟硬一體化”,即硬體的設計完全服務於上層的軟體和演算法需求。如Gemini 3訓練和推理過程高度適配TPU叢集,而這種定製化專用模式也在功耗能效方面展現出極高價值——TPU v5e的功耗僅為NVIDIA H100的20%-30%,TPU v7每瓦性能較前代產品翻倍增長。目前,Google通過“晶片+模型+框架+雲服務”的垂直整合,形成了一個封閉且高效的循環。一方面極大地提升了自身AI研發和應用開發效率,另一方面也在NV主流體系下裂土而治,奪得又一智算賽道主導權,Meta對TPU的採購意向則將這一體系熱度推向了高點。業內有觀點指出,從蘋果到Google,美式的垂直封閉玩法幾乎臻至極境,表現出科技巨頭為鞏固和擴張利益版圖,在產業鏈層面泛在的壟斷慾望。但從生態發展角度來看,封閉模式缺乏長期主義精神,極易導致產業長下游喪失創新活性,並形成單一主體高度集權的格局。另外,從TPU的應用場景來看,軟硬一體閉環儼然是專屬於巨頭的遊戲。某分析人士稱,Google的叢集化設計和“軟體黑盒”,需要使用者重新配置一整套異構基礎設施。如果沒有兆參數模型訓練需求,根本填不滿TPU的脈動陣列,省下的電費可能都抵消不了遷移成本。同時,由於TPU技術路線極為封閉,與主流開發環境無法相容,使用者還需要一支專業的工程團隊駕馭其XLA編譯器,重構底層程式碼。也就是說,只有像Google、Meta這種等級的企業才有資格轉向TPU路線,也只有算力規模達到一定程度才能發揮出定製化產物的能效優勢。不可否認,Google等頭部企業通過垂直整合自建閉環,在局部賽道快速實現單點突破,同時也造就了美國科技巨頭林立的蔚然氣象。但在中美AI博弈背景下,美式封閉壟斷路線憑藉先發優勢提前完成了賽道卡位,被動的追隨式趕超已很難滿足中國智算產業的發展需要。“小院高牆”之外,如何充分發揮舉國體制優勢,團結一切力量拆牆修路,成為拉近中美AI體系差距的關鍵。多元異構生態協同,開放路徑通往下一賽點相較於美式寡頭壟斷模式,中國智算產業正基於多元異構體系層層解耦,重塑開放式生態系統。從頂層設計到產業落地,“開源開放+協同創新”已然成為國產軟硬體全端共識。在政策層面,《算力基礎設施高品質發展行動計畫》提出建構佈局合理、泛在連接、靈活高效的算力網際網路,增強異構算力與網路的融合能力,實現多元異構算力跨域調度編排。並且,相關部門多次強調,鼓勵各方主體創新探索智能計算中心建設營運模式和多方協同合作機制。延伸到AI應用層,《關於深入實施“人工智慧+”行動的意見》同樣要求深化人工智慧領域高水平開放,推動技術開源可及......不難看出,國家在人工智慧和智算領域給出了截然不同的中國方案——不在封閉路線中盲目追趕封閉,要在開放格局下謀求錯位趕超。事實上,頂層設計完全基於產業現實需要。在美方科技封鎖下,中國智算產業主要面臨兩大挑戰:單卡算力性能瓶頸、算力成本高。除了在晶片、模型、基礎軟體等核心技術領域持續攻堅外,當前更有效的途徑是發展更大規模、更多元高效的智算叢集,突破AI算力瓶頸。業內調研結果顯示,國內宣佈擁有千卡規模的算力叢集不少於100個,但其中大部分是異構晶片。可以想像,假如不同硬體系統相互封閉,標準介面不統一,軟體棧互不相容,將導致難以實現智算資源的有效整合利用,更無法滿足大規模參數模型的應用需求。根據行業主流觀點,國產AI算力存在多元化、碎片化特徵,同時又具備相當的規模化優勢。當務之急並不是各自埋頭推進單一技術路線,更首要的是盡快打通“技術牆”、“生態牆”,實現產業鏈開放跨層協作,真正釋放總體算力生態潛能,從單點突破邁向整合創新。具體來看,所謂開放路線旨在基於開放的計算架構推動產業生態協同創新。比如通過制定統一的介面規範,聯動晶片、計算系統、大模型等產業鏈上下游企業共同參與生態建設,減少重複性研發和適配投入,共享技術攻關和協同創新效益。同時,隨著開放架構中的協作標準趨於統一,可以進一步打造出商品化的軟硬體技術,用以代替定製化、專有化的系統,進而降低計算產品應用成本,實現覆蓋產業全端的算力普惠。顯然,在中國式開放體系下,國產AI算力正打破GoogleTPU的泛化普及困境,將智算生態系統與各方開發者使用者廣泛連結,最終形成體系化協同戰力,更靈活高效賦能人工智慧+落地。屆時,中美AI博弈也將走出單卡競爭和單一模型比拚,全面迎來生態體系能力的終極對壘。 (伯虎財經)
Google VS OpenAI!兆生命科學賽道,上演AI終極一戰
當GPT系列和Gemini在AI大模型打得有來有回時,Google和OpenAI也在生命科學開展了新一輪競逐。OpenAI和Google都將生命科學視為AI技術落地的重要領域,但兩者的戰略有顯著差異。OpenAI更偏向於通過建構通用的、超強的基礎模型能力,並通過廣泛的合作,賦能生命科學研究和醫療保健。Google則以底層科學突破為切口,將其AI能力深度嵌入到生命科學研發的每一個具體環節,並且推出了一系列生命科學模型。一個是老牌網際網路大廠,在醫療健康賽道佈局多年,底蘊深厚;一個是AI新貴,對生命科學重金投入,虎視眈眈。但毫無疑問,兩家AI巨頭都在豪賭一個未來:AI將從根本上重塑生命科學的研發範式,這其中蘊藏著兆等級的商業價值。01 Google:聚焦底層科學突破,實現生態閉環作為頂級網際網路大廠,Google已經數次對生命科學發起了衝鋒。然而,Google的探索也並非一帆風順。此前通過Calico、Verily等子公司進入醫療健康領域,但沒有做出什麼成果,甚至組建過Google Health試圖整合但最終失敗,公司無奈關停。但如今Google有個重要的殺手鐧:建構基礎模型能力。尤其,Google旗下DeepMind發佈的AlphaFold2破解了生物學的基本難題——蛋白質結構預測,已經榮獲2024年諾貝爾化學獎。以此為里程碑,Google的戰略聚焦於將AI能力用於底層科學突破,近兩年來,Google在生命科學已發佈了多個模型。模型帶來的底層技術能力的突破,正在讓Google實現其更大的醫療野心,根據AlphaFold2成果已經轉化出Isomorphic Labs,並獲得了高達6億美元的融資。Isomorphic Labs正在用AI建立一個通用的藥物設計引擎,不僅能用於單一靶點或單一藥物類型,更能反覆應用於任何不同的疾病領域。此外,Google還以雲業務為切口,成為醫療健康行業的數位化底座和AI創新平台。Google雲通過提供一系列專門為行業需求打造的解決方案,將DeepMind等部門的基礎科研突破,轉化為藥企、醫院和研究人員即開即用的生產力工具。當前,Google雲已經整合了多個藥物研髮套件,以及前沿基礎模型,系統地賦能醫療健康產業的AI以及數位化轉型。另一邊,Google還有不容忽視的投資部門——GV(Google Ventures)。生命科學與健康是GV核心的投資賽道之一。當前,GV已經過投資上百家生物技術公司,GV幫助Google在藥物發現、疾病治療、醫療資料等多個關鍵環節建立了廣泛的生態佈局。在AI生命科學領域,GV已經投下了OpenEvidence(AI+醫生搜尋引擎)、insitro(AI藥物研發)、Isomorphic Labs(AI藥物研發)、晶泰科技(AI賦能科學平台)等公司。如今,Google在生命科學領域的戰略重心日益清晰:即Google DeepMind以及其他研究團隊主攻基礎科研,產生顛覆性成果;通過Google雲整合模型以及行業解決方案,建構以自身技術為核心的行業生態,打造行業基礎設施;通過GV廣泛投資生命科學企業,為Google建構龐大的創新網路,並通過戰略協同推動行業變革。02 OpenAI:連結多方,持續重資產投入早在ChatGPT剛出世之時,OpenAI的模型就被各大初創公司和平台進行微調,提供各類醫療服務。但如今,OpenAI不再僅僅滿足於做一個工具提供者,而是立志成為利用AI推動下一次生物技術革命的核心參與者。它不只研發,還通過投資、合作等方式,將AI技術滲透到藥物研發、生物安全、再生醫學等多個細分領域,建構一個廣泛的技術應用生態。而言,OpenAI在生命科學的佈局,正在經歷越來越“重資產”投入的過程:第一階段:作為技術服務商,為行業提供基礎模型服務第二階段:廣泛進行業內合作,投資了多家AI+醫療保健前沿公司第三階段:開始直接招募高管、組建團隊,開發自有醫療和科研產品如今,OpenAI近年來在生命科學領域積極佈局,與多家機建構立了重要合作關係,涵蓋包含藥企、患者管理、臨床輔助、監管等多方重要企業,深入連結了產業鏈的上下游。從上圖多筆合作可以建安初,OpenAI更偏向提供企業級AI工具,使得生命科學公司的效率大幅度提升,從而降低開發成本,提升患者體驗。在大模型方面,OpenAI不僅提供通用模型,還會為特定的生命科學問題開發定製化的AI工具。OpenAI聯合Retro Biosciences打造了生物學大模型GPT-4b micr,並成功設計出了山中因子的蛋白質變體,使得重程式設計效率提升50倍。此外,OpenAI還發佈開源醫療基準測試平台 HealthBench,旨在評估醫療AI應用的安全性與精準性,搶佔行業標準制定的話語權。投融資方面,OpenAI及其CEO山姆·奧爾特曼(Sam Altman)在生命科學領域的投融資活動相當活躍,主要聚焦於AI製藥和長壽科學等前沿方向,投下了包括Retro Biosciences、1910 Genetics、Chai Discovery、Valthos等公司。未來,OpenAI更是提供了一個宏大的暢想:目標是到2028年開發出真正的自動化AI研究員,實現重大科學發現。如今公司內部成立"OpenAI for Science"部門,組建頂尖學者團隊,其戰略核心是打造下一代科學發現平台,加速科學研究。甚至,OpenAI基金會在起步階段承諾投入250億美元,用於醫療健康以及“人工智慧韌性”。寫到最後簡單來說,Google和OpenAI都在生命科學進行了全方位的、系統性的押注。兩家公司都希望通過建構AI基礎平台,在這個傳統且低效的生命科學領域,找到巨大的商業機會。Google以其深厚的科研積澱和生態系統,建構了一個從底層科學突破到行業基礎設施的完整閉環。而OpenAI則以通用大模型為基石,通過廣泛的合作與深入的價值鏈滲透,展現出更強的靈活性和擴張野心。而在AI for Science的技術趨勢下,Google與OpenAI的這場豪賭,或許將是整個人類的未來。 (智藥局)